108 - Perflab Seminar 2026-02-03: Domain Decomposition-Based Preconditioners and Neural Networks [ID:61509]
50 von 1516 angezeigt

Vielen Dank für die tolle Erinnerung.

Ich bin glücklich, dass ich endlich die Chance habe,

mit einer schönen Schnee auf der Ausseite zu kommen.

Ich werde nicht alles wiederholen, was du gesagt hast.

Mein Hintergrund ist wirklich die komponente Komponente.

Ich möchte dir zwei verschiedene Art von der Domainly-Komposition zeigen.

Einer für klassische Numerikalsäufer und einer

um zu sehen

ob diese in der Kontext von Neuronetworks verwendet werden.

Okay, jetzt muss ich...

Okay, sehr gut.

Mein Hintergrund

wie es gerade gesagt wurde

ist wirklich mehr auf dieser Seite.

Ich muss es hier zeigen. Auf der Seite der Numerikalsäufer.

Ich habe also gelernt, dass, z.B. von partialen differentialen und differentialen Äquationen,

wie man sie diskrutiert, wie man ein mathematisches Modell baut und wie man sie löst.

Das Gute an dieser Sache ist, dass man die Äquationen generell hat.

Man kann in verschiedene Materialparameter stecken.

Man kann es in irgendeinem Sinne

wenn man es sehr robust und generalisierbarer nennt

aber man muss wirklich diese Modelle haben.

Und dann später

und ich denke

dass dieses Feld nicht wirklich auch eine lange Geschichte hat

aber für mich ist es ein bisschen neuer, dieses Feld der Maschine-Lehrer,

wo die ganze Methodologie oder die ganze Paradigm anders ist.

Also startest du nicht mit deiner Äquation, aber startest du mit dem Daten.

Und du versuchst

dein Modell aus dem Daten zu bauen und nicht aus einer Äquation

die du am Anfang gegeben hast.

Und mehr recent sind es diese

und das ist jetzt ein sehr

sehr heißes Feld oder ein sehr aktives Feld

aber ich weiß nicht, ob es ein gutes Name ist, aber es ist eine Maschine-Lehrer-Scientifik,

die versucht, eine Maschine-Lehrer-Scientifik und eine Maschine-Lehrer-Komputierung zu kombinieren.

Also nicht, dass die andere Maschine-Lehrer-Komputierung nicht wissenschaftlich ist,

aber es ist wirklich eine Maschine-Lehrer-Komputierung plus eine Maschine-Lehrer-Komputierung.

Und ich gehe jetzt auf diese zwei Themen aus den Domain Decomposition Methods

wie ich es erwähne.

Mein Hintergrund ist auf dieser, und das ist eine sehr alte Technik,

nur dass es eine sehr hohe Ausführung hat.

Es wurde in 1870 von Hermann Amandus Schwarz in der Erfindung

oder etwa in der Zeit, wenn er es entwickelt hat, und wenn es auch noch veröffentlicht wurde,

dass es eine Methodologie für Proben ist, oder dass es irgendwie ein Algorithm ist,

das die Existenz von Lösungen auf komplexen Formen und Domainen genutzt wurde.

So

an diesem Punkt wussten die Leute

dass die Laplace-Equation eine Lösung auf einem Kreis und auch auf einem Reklame hat.

Aber was nicht klar ist, ist, ob die Form so kompliziert ist,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

00:59:47 Min

Aufnahmedatum

2026-02-03

Hochgeladen am

2026-02-13 14:10:12

Sprache

de-DE

Speaker: Prof. Dr. Alexander Heinlein, TU Delft

Slides

Abstract:
 This talk highlights how domain decomposition methods—rooted in ideas introduced by Schwarz in the 19th century and later developed into numerical algorithms by Lions in the 1980s—remain highly relevant for modern high-performance computing and scientific machine learning. The central principle is to decompose a global computational domain into subdomains, thereby splitting large-scale problems into smaller, local subproblems that can be solved efficiently and in parallel. We focus on modern overlapping Schwarz preconditioners as implemented in the FROSch (Fast and Robust Overlapping Schwarz) package of the Trilinos library, which have demonstrated robustness and scalability for a wide range of challenging applications on contemporary CPU and GPU architectures. Beyond their classical role in numerical solvers for partial differential equations, we also explore how domain decomposition techniques can be employed to localize neural networks and operator-learning architectures, introducing sparsity, improving scalability, and enhancing training in multiscale settings. The underlying algorithmic ideas are validated on representative test problems, including diffusion, wave propagation, and flow problems, illustrating how domain decomposition provides a unifying framework bridging large-scale numerical simulation and modern scientific machine learning.

 For a list of past and upcoming NHR PerfLab seminar events, please see: https://hpc.fau.de/research/nhr-perflab-seminar-series/
Einbetten
Wordpress FAU Plugin
iFrame
Teilen